Перевод: с английского на все языки

со всех языков на английский

faisant partie d'une chaîne

См. также в других словарях:

  • Chaîne de Ponzi — Une chaîne de Ponzi est un circuit financier frauduleux qui consiste à rémunérer les investissements effectués par les clients, au moyen essentiellement des fonds procurés par les nouveaux entrants, le système étant découvert et s écroulant quand …   Wikipédia en Français

  • Chaîne de montagnes — Montagne Pour les articles homonymes, voir Montagne (homonymie). Le K2, Himalaya …   Wikipédia en Français

  • Chaîne montagneuse — Montagne Pour les articles homonymes, voir Montagne (homonymie). Le K2, Himalaya …   Wikipédia en Français

  • Chaîne Holyoke — Carte topographique de la chaîne Holyoke. Géographie Altitude 337 m, Mont Norwottuck Massif …   Wikipédia en Français

  • chaîne — [ ʃɛn ] n. f. • chaeine v. 1080; lat. catena I ♦ Suite d anneaux entrelacés (⇒ chaînon, 1. maille, maillon). A ♦ 1 ♦ Dispositif formé d anneaux entrelacés servant à orner. ⇒ chaînette, gourmette. Chaîne et médaille offertes au baptême. Chaîne d… …   Encyclopédie Universelle

  • chaîné — chaîne [ ʃɛn ] n. f. • chaeine v. 1080; lat. catena I ♦ Suite d anneaux entrelacés (⇒ chaînon, 1. maille, maillon). A ♦ 1 ♦ Dispositif formé d anneaux entrelacés servant à orner. ⇒ chaînette, gourmette. Chaîne et médaille offertes au baptême.… …   Encyclopédie Universelle

  • Chaîne Mount Tom — Carte topographique de la chaîne Mount Tom. Géographie Altitude 366 m, Mont Tom Massif …   Wikipédia en Français

  • Chaine De Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

  • Chaine de Markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

  • Chaine de markov — Chaîne de Markov Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un… …   Wikipédia en Français

  • Chaîne De Markov — Selon les auteurs, une chaîne de Markov est de manière générale un processus de Markov à temps discret ou un processus de Markov à temps discret et à espace d états discret. En mathématiques, un processus de Markov est un processus stochastique… …   Wikipédia en Français

Поделиться ссылкой на выделенное

Прямая ссылка:
Нажмите правой клавишей мыши и выберите «Копировать ссылку»